Agentic AI 的崛起與法律責任爭議:Microsoft 與 Anthropic 的戰略佈局
Agentic AI 系統(如 Claude Cowork 與 OpenClaw)的崛起正在重塑產業,引發法律責任與商業模型的辯論。企業正透過服務條款來降低自主系統的法律風險,而開發商則面臨更高的算力與營運成本,促使業界轉向關注系統的「可審計性」。
Agentic AI 系統(如 Claude Cowork 與 OpenClaw)的崛起正在重塑產業,引發法律責任與商業模型的辯論。企業正透過服務條款來降低自主系統的法律風險,而開發商則面臨更高的算力與營運成本,促使業界轉向關注系統的「可審計性」。
Meta 與 YouTube 在社群媒體成癮訴訟中敗訴,陪審團判定平台應對成癮機制負責,並判賠 600 萬美元,此裁決恐將引發後續連鎖訴訟。
美國 FCC 宣布全面禁止進口與銷售新款外國製消費級路由器,以強化國家網絡供應鏈安全,此舉引發業界對供應鏈遷移與價格上漲的擔憂。
Anthropic 正在與美國國防部進行法律對抗,反對該公司被列為「供應鏈風險」。最新的法院文件顯示政府決策矛盾,而 OpenAI 與 Google DeepMind 的員工更罕見地提交法庭之友文書表示支持,引發對政府監管權擴張的關注。
川普政府推出新的 AI 政策框架,主張透過聯邦優先原則取代各州監管,並將未成年人 AI 防護責任轉回家庭。此舉引發憲法層面的法律權限爭議。
川普政府傳出將對 TikTok 交易案收取 100 億美元「媒合費」,引發法律專家對其權力邊界的質疑。雖然 CFIUS 有權因國安理由強制拆分外資企業,但直接收費缺乏明確法律依據,可能違反憲法第五修正案,並對全球對美投資環境造成負面影響。
AI 新創 Anthropic 起訴美國政府,抗議因其拒絕參與自主武器開發而被白宮列入「覺醒黑名單」。此案涉及 AI 倫理與國防政策的法律邊界,可能引發科技業與政府關係的巨變。
白宮發布《2026 AI 安全行政命令》,確立「代理責任制」,將代理型 AI 的自主行為責任從用戶轉向開發者。歐美同步推動「全球 AI 安全協議」,強制要求高風險 AI 必須具備人類控制機制與終止開關。